Fahrplan

  1. Kurze Wiederholung: 1PL Gleichungen
  2. Erweiterung: 2PL und 3PL
  3. Modellfit beurteilen
  4. Partial Credit Modelle (PCM)

1PL Modell

\[ logit(P(X_{pi}=1)) = \theta_p - \beta_i \]

Logit

\[ ln\left(\frac{P(X_{pi}=1)}{1-P(X_{pi}=1)}\right) \]

  • Transformation der Ergebnisse unseres linearen Terms, damit die Wahrscheinlichkeitswerte nicht mehr zwischen 0 und 1 liegen und linear modeliert werden können.
  • Wahrscheinlichkeit \(p\) durch Gegenwahrscheinlichkeit \(1-p\).
  • Inverse der logit ist die logistische Funktion.

1PL Modell: Umformen



\[ logit(P(X_{pi}=1)) = \ln\left(\frac{P(X_{pi}=1)}{1-P(X_{pi}=1)}\right) = \theta_p - \beta_i \]

1PL Modell: Umformen

\[ \frac{p_{pi}}{1-p_{pi}} = exp(\theta_p - \beta_i) \]

\[ p_{pi} = exp(\theta_p - \beta_i)*( 1-p_{pi}) \]

1PL Modell: Umformen

\[ p_{pi} + p_{pi} * exp(\theta_p - \beta_i) = exp(\theta_p - \beta_i) \]


\[ p_{pi}*(1+exp(\theta_p - \beta_i)) = exp(\theta_p - \beta_i) \]

1PL Schreibweise 1

\[ P(X_{pi}=1) = \frac{exp(\theta_p - \beta_i)}{1 + exp(\theta_p - \beta_i)} \]

1PL Schreibweise 2

\[ P(X_{pi}=1) = \frac{e^{\theta_p - \beta_i}}{1 + e^{\theta_p - \beta_i}} \]

1PL Schreibweise 3

\[ P(X_{pi}=1) = \frac{1}{1 + e^{\color{#9B1B34}{-}\theta_p \color{#9B1B34}{+} \beta_i}} \]

Beispiel

\[ \frac{exp(1 - 0.8)}{1 + exp(1 - 0.8)} = 0.55 \]

Wahrscheinlichkeit einer richtigen Antwort über 0.5, wenn \(\theta_p > \beta_i\).

Beispiel

\[ \frac{exp(0.8 - 1)}{1 + exp(0.8 - 1)} = 0.45 \]

Wahrscheinlichkeit einer richtigen Antwort unter 0.5, wenn \(\theta_p < \beta_i\).

Höher parametrisierte   IRT Modelle

Neue Paramter

Wir können Parameter zu diesem Modell hinzufügen, wodurch wir flexibler in der Modellierung werden:

  • Schwierigkeit \(\beta_i\) (Intercept)
  • Steigung \(\alpha_i\) (Faktorladung, Diskriminationsparameter)
  • Ratewahrscheinlichkeit \(\gamma_i\)

3PL

\[ P(X_{pi}=1) = \color{#aaa938}{\gamma_i} + (1-\color{#aaa938}{\gamma_i})\frac{exp(\color{#F4BA02}{\alpha_i}(\theta_p - \color{#00e0e0}{\beta_i})))}{1 + exp(\color{#F4BA02}{\alpha_i}(\theta_p - \color{#00e0e0}{\beta_i}))} \]

  • Schwierigkeit
  • Diskriminationsparamter
  • Ratewahrscheinlichkeit
    • z.B. bei 4 Antwortmöglichkeiten: \(\gamma_i = 1/4 = 0.25\)

2PL

\(\gamma_i = 0\)

\[ P(X_{pi}=1) = \color{#9B1B34}{0} + (1-\color{#9B1B34}{0})\frac{exp(\alpha_i(\theta_p - \beta_i)))}{1 + exp(\alpha_i(\theta_p - \beta_i))} \]

1PL

\(\alpha_i = 1\)

\[ P(X_{pi}=1) = 0 + (1-0)\frac{exp(\color{#9B1B34}{1}(\theta_p - \beta_i)))}{1 + exp(\color{#9B1B34}{1}(\theta_p - \beta_i))} \]

Darstellung

Simulieren von IRT Daten

Jetzt ist ein guter Zeitpunkt, und uns ein sehr mächtiges Werkzeug anzuschauen: Datensimulation.
Geht zur Übung und probiert es aus.

Welches Modell?

Tradeoff zwischen Underfit und Overfit

Tradeoff zwischen Underfit und Overfit

Tradeoff zwischen Underfit und Overfit

1PL vs. 3PL

Mehr Parameter müsen nicht immer auch besser sein. Gerade im IRT-Kontext können komplexere Modelle schnell an ihre Grenzen kommen und nicht konvergieren.

1PL

1PL Modelle sind nicht so sehr von den tatsächlichen Daten abhängig (ähnlich wie die lineare Regression im Beispiel) und damit ähnlicher über verschiedene Datenerhebungen (da es weniger Möglichkeiten gibt, sich direkt an die Daten anzupassen). Andererseits kann es natürlich sein, dass sie zu sehr vereinfachen.

1PL vs. 3PL

3PL

Können Personen mit hohen Fähigkeitswerten bestrafen, da die obere Asympotete bei 1 liegt, und somit eine 0% Wahrscheinlichkeit besteht, dass jemand im hohen Fähigkeitsbereich ein Item falsch beantwortet. Andersrum gibt es eine minimale Lösungswahrscheinlichkeit.

Mögliche Punkte

Bei Modellwahl zu beachten:

  • Gewichtung der Items
  • Antwortskala
  • Simulation/Modellfit
  • Ziel

Gesamten Modellfit

Es gibt verschiedene Fit-Statistiken, die uns bei Aussagen über den Modellfit helfen, z.B.:

Deviance

Deviance ist ein Maß für die relative Distanz einer Vorhersage von perfeketer Accuracy.
Wir können uns die Konvergenzplots anschauen:

Code
library(TAM)

data(data.sim.rasch)

mod_2pl <- tam.mml.2pl(resp = data.sim.rasch, verbose = FALSE, irtmodel = "2PL")

plotDevianceTAM(mod_2pl)

Fit Indices (z.B. AIC, BIC)

Da die Deviance (fast) immer besser wird, je mehr Parameter wir ins Modell mit aufnehmen, bestrafen Fit Indices die Anzahl der Parameter.
Keine Daumenregeln für Cutoff Werte, daher für Vergleich von genesteten Modellen.

Code
**** Calculate Residuals 
**** Calculate Counts 
**** Calculate Covariances 
Test of Global Model Fit (Maximum Chi Square)
    maxX2 Npairs p.holm
1 9.79789    780      1

MADaQ3 Statistic and Test of Global Model Fit (Maximum aQ3)
  MADaQ3 maxaQ3      p
1 0.0179 0.0851 0.1082

Summary of Q3 and adjusted Q3 statistics (based on posterior distribution)
  type       M     SD     min    max  SGDDM wSGDDM
1   Q3 -0.0228 0.0227 -0.1011 0.0622 0.0263 0.0263
2  aQ3  0.0000 0.0227 -0.0783 0.0851 0.0179 0.0179

Fit Statistics
100*MADCOV       SRMR      SRMSR 
     0.281      0.014      0.018 

Schätzen die out-of-Sample predictive accuracy. Das muss nicht immer das Ziel sein.

Inferenzstatistisch

Wir könne auch den Likelihood Ratio Test nutzen, um die Modelle zu vergleichen. Er erlaubt zum einen den Vergleich der empirischen und der Modellimplizierten Kovarianzmatrix, aber auch den Vergleich der Kovarianzmatrizen genesteter Modelle.

Hängt von der Stichprobengröße ab und hat auch einige weitere Probleme. Sollte deshalb nicht in Isolation genutzt werden, sondern möglichst mit anderen Fitmaßen, z.B. den besprochenen deskriptiven, zusammen.

Itemfit

Itemfitplots

Erwartete und die beobachtete Itemkurven übereinander:

Code
invisible(
plot(mod_2pl,
  items = 1:3, 
  export = FALSE,
  observed = TRUE,
  package = "graphics")
)

Achtung! Die grafische Überprüfung ist stark von der Anzahl an geplotteten Punkten abhängig, die man wählt.

Infit/Outfit

Residuen-basierte Fit-Statistiken, die die Steigung der ICC characterisieren.

Es sollten also vor allem Items mit einem Fit-Kriterium über 1 genauer betrachtet werden.
Infit/Outfit sind relativ, da sie den Item-Fit relativ zu den anderen Items im Itemset beurteilen.

Cut-off Werte sind abhängig von der Stichprobengröße (siehe hier)

Infit/Outfit

Infit

Sensitiv für Abweichungen bei Items, die von der Schwierigkeit auf die Person zugeschnitten sind (Itemschwierigkeit und Personenfähigkeit passen zu einander).

Outfit

Sensitiv für Outlier (z.B. leistungsstarke Personen beantworten ein sonst leichtes Item falsch)

Code
tam.fit(mod_2pl)
Item fit calculation based on 15 simulations
|**********|
|----------|
$itemfit
   parameter    Outfit     Outfit_t  Outfit_p Outfit_pholm     Infit
1         I1 0.9841971 -0.410340651 0.6815561            1 1.0052670
2         I2 0.9907054 -0.250479887 0.8022163            1 1.0003834
3         I3 1.0032164  0.101426983 0.9192115            1 1.0003688
4         I4 0.9695287 -0.962202502 0.3359479            1 1.0082125
5         I5 0.9917672 -0.267598396 0.7890085            1 1.0025534
6         I6 0.9783490 -0.704875514 0.4808877            1 1.0032805
7         I7 1.0093286  0.317098015 0.7511692            1 0.9980420
8         I8 1.0154737  0.540253957 0.5890219            1 1.0001213
9         I9 1.0166849  0.614140040 0.5391228            1 0.9997715
10       I10 0.9911310 -0.341809008 0.7324946            1 0.9970686
11       I11 0.9749728 -0.984526226 0.3248568            1 1.0000018
12       I12 0.9999858  0.003235053 0.9974188            1 1.0033100
13       I13 0.9845413 -0.679951992 0.4965349            1 1.0047093
14       I14 1.0187191  0.777922837 0.4366145            1 0.9991930
15       I15 1.0120142  0.582648937 0.5601297            1 1.0012926
16       I16 1.0048775  0.229145063 0.8187562            1 1.0011923
17       I17 1.0199899  1.012810691 0.3111506            1 0.9954750
18       I18 0.9902459 -0.487822125 0.6256758            1 1.0014215
19       I19 0.9975816 -0.115073589 0.9083868            1 0.9993433
20       I20 1.0034435  0.166805592 0.8675230            1 0.9988493
21       I21 1.0063174  0.327448730 0.7433285            1 0.9969858
22       I22 0.9916278 -0.418176923 0.6758178            1 1.0030839
23       I23 0.9966806 -0.159605314 0.8731920            1 1.0006183
24       I24 1.0121812  0.549061286 0.5829634            1 0.9986636
25       I25 0.9851853 -0.679174250 0.4970275            1 1.0011319
26       I26 1.0077862  0.347173865 0.7284607            1 0.9947036
27       I27 1.0122632  0.559520773 0.5758064            1 1.0004134
28       I28 0.9966121 -0.142710632 0.8865187            1 1.0051499
29       I29 0.9560065 -1.756306426 0.0790361            1 1.0053275
30       I30 1.0291613  1.215053539 0.2243457            1 0.9969542
31       I31 1.0225900  0.863423738 0.3879045            1 1.0048997
32       I32 0.9923344 -0.298798759 0.7650936            1 1.0006422
33       I33 0.9709712 -1.030756475 0.3026550            1 1.0037708
34       I34 1.0005153  0.022454627 0.9820853            1 0.9980562
35       I35 0.9826800 -0.548754365 0.5831740            1 0.9987483
36       I36 0.9993002 -0.015332678 0.9877668            1 0.9990410
37       I37 0.9882361 -0.347252896 0.7284013            1 1.0035664
38       I38 1.0197243  0.563053618 0.5733984            1 0.9926768
39       I39 0.9867473 -0.350127313 0.7262432            1 1.0027237
40       I40 1.0647013  1.617105748 0.1058555            1 0.9923318
         Infit_t   Infit_p Infit_pholm
1   0.1506808091 0.8802275           1
2   0.0214952198 0.9828506           1
3   0.0215536419 0.9828040           1
4   0.2669846042 0.7894810           1
5   0.0915444606 0.9270600           1
6   0.1158801803 0.9077475           1
7  -0.0584160115 0.9534173           1
8   0.0133750458 0.9893286           1
9  -0.0008182291 0.9993471           1
10 -0.1051696106 0.9162412           1
11  0.0058501700 0.9953323           1
12  0.1429428727 0.8863353           1
13  0.2140004767 0.8305467           1
14 -0.0283048188 0.9774190           1
15  0.0672431255 0.9463882           1
16  0.0604739704 0.9517781           1
17 -0.2260343119 0.8211747           1
18  0.0748816085 0.9403089           1
19 -0.0268303807 0.9785950           1
20 -0.0521215671 0.9584318           1
21 -0.1506659078 0.8802393           1
22  0.1590869187 0.8736004           1
23  0.0364262241 0.9709425           1
24 -0.0559135994 0.9554106           1
25  0.0552110954 0.9559703           1
26 -0.2300871808 0.8180240           1
27  0.0254918675 0.9796626           1
28  0.2270117314 0.8204146           1
29  0.2164914817 0.8286047           1
30 -0.1209299768 0.9037465           1
31  0.1948935960 0.8454762           1
32  0.0326274057 0.9739717           1
33  0.1357906767 0.8919868           1
34 -0.0622917898 0.9503305           1
35 -0.0316025127 0.9747890           1
36 -0.0204715892 0.9836672           1
37  0.1161649886 0.9075218           1
38 -0.1997638110 0.8416653           1
39  0.0836206262 0.9333581           1
40 -0.1827126935 0.8550235           1

$time
[1] "2024-10-21 20:37:05 UTC" "2024-10-21 20:37:05 UTC"

$CALL
tam.fit(tamobj = mod_2pl)

attr(,"class")
[1] "tam.fit"

Infit/Outfit

Code
# Definieren einer eigenen Plot-Funkktion
plot_infit_outfit <- function(tam_obj){
fit_tam <- tam.fit(tam_obj)$itemfit

fit_plotdat <- fit_tam %>%
  # Als Faktor umwandeln, damit die Sortierung im Plot stimmt
  mutate(Item = factor(parameter, levels = unique(parameter[order(as.numeric(parameter))]))) %>%
  select(Item, Outfit, Infit) %>%
  pivot_longer(cols = c(Outfit, Infit), names_to = "fit", values_to = "value")

ggplot(fit_plotdat, aes(x = value, y = Item)) +
  geom_point(colour = "#F4BA02") +
  facet_grid(. ~ fit, scales = "fixed") +
  xlim(0.4, 1.6) +
  theme_bg() +
  geom_vline(xintercept = 0.5, linetype = "dotted", colour = "#9B1B34") +
  geom_vline(xintercept = 1.5, linetype = "dotted", colour = "#9B1B34")
}

plot_infit_outfit(mod_2pl)
Item fit calculation based on 15 simulations
|**********|
|----------|

Personfit

Wie gut stimmen die Antwortmuster der Personen mit dem Modell überein?

Infit Outfit

Code
p_fit <- tam.personfit(mod_2pl) %>%
  pivot_longer(cols = c(outfitPerson, infitPerson), names_to = "fit", values_to = "value")

ggplot(p_fit, aes(x = value)) +
  geom_histogram(colour= "#F4BA02", fill = "#01364C", binwidth = 0.1) +
  theme_bg() +
  xlim(0, 2) +
  facet_grid(. ~ fit)

Mögliche weitere Fragestellungen

Wir können uns noch viele weitere Dinge mit unseren Modellen anschauen. Sehr hilfreich dabei kann das Paket ggmirt sein, dass eine Vielzahl von praktischen Plots für die Auswertung bereitstellt.

Item Person Map

Ist die Fähigkeitsrange durch die Items gut Abgedeckt?

itempersonMap(mod_mirt) + theme_bg() 

ICC

tracePlot(mod_mirt) + theme_bg()

ICC

tracePlot(mod_mirt, facet = F, legend = T) + theme_bg()

Item Information Curves

Wie viel Information steuert jedes Item zur Schätzung von Theta bei?

itemInfoPlot(mod_mirt) + theme_bg()

Item Information Curves

itemInfoPlot(mod_mirt, facet = T) + theme_bg()

Test Information Curve

testInfoPlot(mod_mirt, adj_factor = 2) + theme_bg()

Summary

summaryPlot(mod_mirt, adj_factor = 2) +
  theme_bg() 

Was tun bei polytomen Items?

Beispielaufgabe

Ich bin bequem, neige zur Faulheit.

(trift überhaupt nicht zu) 1 … 2 … 3 … 4 … 5 (trift voll und ganz zu)

Wie?

Partial Credit

Grundidee

Erweiterung des 1PL Modells: Den einzelnen Antwortkategorien wird eine eigene Schwierigkeit (Schwellenparameter) zugeordnet. Dadurch können wir die Antwortwahrscheinlichkeit in einer bestimmten Kategorie berechnen.

Anwendungsbereich

Ordinale Daten (geordnete Antwortkategorien), z.B.:

  • Likert-Skalen
  • Items, die auch mit Teilpunkten bewertet werden können (z.B. in Mathe)

Darstellung

Für ein Item:

Raw score curve

Für einen “Test” aus 2 Items:

Alternativen

  • Partial Credit Modelle nehmen die gleiche Steigung für alle Items an.
  • Generalisierte PCMs treffen diese Annahme nicht.
  • Ratingscale Modell: Relative Schwierigkeit der Schwellenparameter unterscheidet sich zwischen den Items nicht (Schritte sind also ähnlich schwer bei jedem Item, z.B. Likert-Skala).

Übung

Gehe zur Partial-Credit-Übung und bearbeite sie.

Bildquellen